草庐IT

stable diffuse

全部标签

【aigc辅助绘画流程】blender+stableDiffusion+chatgpt辅助建立3D插画背景

首先还是先上效果图吧。这是一张用stablediffusion生成的照片,我们最好去选用这种相对正透视的照片(特别是像我这种透视功底本来就不咋地的半桶水美术)。通过该照片直接映射到场景立方体中(注意这里删掉了正对摄像机的面)简单建模赋予场景体积感,并实现基于摄像机视角的纹理映射,涉及到uv不准确或者效果不好的地方,如果追求效果更准确一些的话,需要手动去调整一下特定位置的uv。完成映射后的效果。距离近一些的话,把视角限定在房间方块中,显得flaws会更少。为了引入额外的ambient和光照,我们调整下材质。目前的材质是这样的:我们其实是直接采样图像的颜色信息,而没有经过真正意义上的光照模型。连接

StableDiffusion的Prompt自动套用正面Tags

        随着人工智能AI的兴起,现在AI画图已经风靡全球,其中StableDiffusion以开源、可以本地部署(免费白嫖)引起了包括本人在内的打工人的兴趣。    我们在使用StableDiffusion进行文生图(Txt2Img)时,除了我们的Prompt以外,时常还要输入大量的正面Tags来润色,对于我这样的懒人,每次复制这些Tags是很麻烦的。故做这段小代码,只要输入我们的Prompt以后,会自动添加正面Tags,并将整合好的完整Prompt复制到剪贴板中,以方便我们直接粘贴到StableDiffusion或VEGA中。以下是代码:'''StableDiffusion或VEGA

玩LLM和StableDiffusion常说的LoRA到底是什么

论文地址:LoRA:Low-RankAdaptationofLargeLanguageModelsLoRA是一种用于adapters和大模型迁移的技术,全称为Low-RankAdaptationofLargeLanguageModels。它最初主要是用于大型语言模型(LLM)的跨领域与跨语言迁移。在微软的论文《LoRA:Low-RankAdaptationofLargeLanguageModels》提出了一种低秩adapters学习技术LoRA,实现大规模语言模型的跨领域与跨语言迁移。其主要内容如下:1.低秩分解:将adapters的参数表示为两个小矩阵U和V的乘积,而不是一个大参数矩阵。这可

StableDiffusion负面标签自动复制

     随着人工智能AI的兴起,现在AI画图已经风靡全球,其中StableDiffusion以开源、可以本地部署(免费白嫖)引起了包括本人在内的打工人的兴趣。    但使用StableDiffusion时,时常会出现诸如:三只手,三只脚,畸形的五官等问题。故StableDiffusion里面有一个负面标签(Tags),用来减少诸如此类的问题。    对于象我这样的懒人,每次复制粘贴负面标签是很麻烦的。故用Python编了这个小代码,用来自动复制心仪的负面标签到剪贴板中,运行完后,直接到负面Tags中粘贴就行了,非常省事。以下是代码,你可以替换成你自己喜欢的负面标签:'''如果还没装pyper

AI绘图-StableDiffusion安装

AI绘图-StableDiffusion安装前言:StableDiffusion是一个基于LatentDiffusionModels(潜在扩散模型,LDMs)的文图生成(text-to-image)模型。它主要用于根据文字的描述产生详细图像,能够在几秒钟内创作出令人惊叹的艺术作品。StableDiffusion在2022年发布,是深度学习文本到图像生成模型之一。StableDiffusion属于一类称为扩散模型(diffusionmodel)的深度学习模型。它们是生成模型,这意味着它们的目的是生成类似于它们训练数据的新数据。对于StableDiffusion来说,数据就是图像。为什么叫扩散模型

SD/StableDiffusion模型,ai绘画部署教程,谷歌云端零成本部署,支持中文

目录前言准备前提说明开始搭建1、第一步,下载ipynb脚本文件2、第二步,上传一键脚本文件到谷歌云盘3、选择该.ipynb文件--右键--打开方式--关联更多应用4、输入框搜索Colaboratory找到该应用,安装5、安装过程中,选择您已经登录的Google账户6、用安装好的Colaboratory打开.ipynb文件7、在使用Colaboratory打开的界面选中修改-笔记本设置-确认默认设置8、一键部署9、耐心等待云端部署完成,大概15分左右。10、成功部署后打开的页面11、打开新链接即可出现中文界面12、简单使用前言众所周知StableDiffusion这款开源软件对电脑硬件要求非常高

StableDiffusion产生随机种子(seed)并复制到剪贴板中

     随着人工智能AI的兴起,现在AI画图已经风靡全球,其中StableDiffusion以开源、可以本地部署(免费白嫖)引起了包括本人在内的打工人的兴趣。    但是每次文生图时,种子(seed)都是随机的,如果手气好,遇见个满意的图,想要继续完善,却苦于不知道种子的编号(用图生图有时候会融合得不太完美),每次手工输入种子编号又太麻烦。    故编了这个Python小代码,运行后自动产生一串随机数并复制到剪贴板中,你只要粘贴到种子(seed)那里就行了,非常方便。    妈妈再也不用担心我的文生图不知道种子编号了!    为了兼容到目前为止仍然免费的VEGA,故本代码产生的随机种子编号是

LLM_StableDiffusion_studio发布

背景:从chatgpt发布到现在已经超过半年时间,AGI的势头越来越猛。大家都在做各种的尝试和组合,把chatgpt通用的强大的知识表达和理解能力尝试应用在自己的业务场景。前期也是出现非常多的业务应用,但是主要还是围绕chatgpt本身已经开放的能力:生成、续写、摘要、简单代码生成,并未对做更深入开发。现在已经开始有更多更深度开发的应用:用chatgpt来控制业务流程,填补人差异性和机器精准格式要求的gap、用chatgpt来优化sdpromot、用chatgpt来为群体旅游计划作综合规划、用chatgpt构建企业自己的私有知识图谱、用chatgpt把用户浏览点击数据撞成文本故事挖掘用户更深层

探索 StableDiffusion:生成高质量图片学习及应用

本文主要介绍了StableDiffusion在图片生成上的内容,然后详细说明了StableDiffusion的主要术语和参数,并探讨了如何使用prompt和高级技巧(如图像修复、训练自定义模型和图像编辑)来生成高质量的图片。介绍StableDiffusion▐  StableDiffusion是什么StableDiffusion是一种潜在的文本到图像扩散模型,能够生成逼真的图像,只需任何文本输入,就可以自主自由创造漂亮的图像,使众多不会拍照的人在几秒钟内创造出惊人的图片。StableDiffusion可以生成不同的图片风格,比如:Anime 动画,realistic 写实,Landscape 

StableDiffusion入门教程

目录介绍模型的后缀ckpt模型:safetensors模型文件夹VAE模型在哪下载Huggingface:下载SD官方模型文生图模型标签介绍C站:筛选模型的类型CheckPointType(模型的类型)Basemodel类型筛选标签模型下载复制Prompt(提示词)其他人做的图片分享更多详细内容总结介绍安装StableDiffusion两种方式,一种是去github上下载工程部署,另一种是安装大佬的整合包,如果找不到整合包可以私信我。这里不详细介绍安装部分,当我们安装完后,打开网页端时,会看到一个操作界面。而这个界面,有种既熟悉又陌生的感觉,会点直接生成按钮,直接生成图片,但是如何写提示词呢可